在决策过程中使用机器学习技术时,模型的解释性很重要。Shapley添加说明(SHAP)是机器学习模型最有前途的解释方法之一。当一个变量的效果取决于另一个变量的值时,就会发生交互作用。即使每个变量对结果几乎没有影响,其组合也会对结果产生大量影响。了解互动对于理解机器学习模型很重要。但是,天真的外形分析无法区分主要效果和相互作用效果。在本文中,我们将Shapley-Taylor索引作为一种解释方法,用于使用Shap考虑相互作用效果的机器学习模型。我们将该方法应用于京都大学医院的癌症队列数据(n = 29,080),以分析哪种因素组合有助于结肠癌的风险。
translated by 谷歌翻译
在决策过程中使用机器学习技术时,模型的可解释性很重要。在本文中,我们采用了福利添加剂解释(Shap),这是根据许多利益相关者之间的公平利润分配,根据其贡献,用于解释使用医院数据的渐变升级决策树模型。为了更好地解释,我们提出了如下的三种新技术:(1)使用SHAC和(2)所谓的特征包的特征重要性的新度量,该技术被称为一个分组的特征,以允许更容易地了解模型没有模型的重建。然后,将解释结果与Shap框架和现有方法进行比较。此外,我们展示了A / G比如何使用医院数据和所提出的技术作为脑梗死的重要预后因素。
translated by 谷歌翻译